ANT3005 - MLSecOps - Human Growth Kazakhstan

ANT3005 - MLSecOps

Antcolony — Кибербезопасность

ANT3005 - MLSecOps

Описание курса

Описание курса

Материал данного курса позволит слушателям изучить теорию и практику современных угроз, атак, методов защиты и аудита систем искусственного интеллекта и машинного обучения. Слушатели научатся моделировать угрозы, реализовывать и обнаруживать атаки (adversarial, poisoning, supply chain, privacy leakage), а также применять инструменты для построения защищённых ML-pipeline’ов, мониторинга и аудита моделей машинного обучения. Внимание уделяется лабораторным работам на OSS-фреймворках.

Аудитория курса

Специалисты в области кибербезопасности, желающие освоить специфику защиты ML/ИИ систем, а также разработчики и архитекторы ИИ-решений, разрабатывающие ML-pipeline'ы с учетом требований безопасности.

Предварительные требования

Необходимо обладать знаниями Python и практическим опытом работы с ML/AI-фреймворками (scikit-learn, PyTorch, TensorFlow, Jupyter).

Как устроено обучение

Онлайн-курс

Онлайн-курс предполагает групповые занятия с инструктором через систему видеоконференцсвязи, кроме того, домашние задания и экзамен. Слушателям предоставляются учебные пособия и дополнительные материалы

Для корпоративных клиентов

Обучение для корпоративных клиенов включает в себя онлайн-курсы и курсы самообучения, а также дополнительные сервисы,необходимые корпоративным клиентам: организация планов обучения для подразделений клиента, проведение оценки эффективности обучения и т.д.

Программа курса

Модуль 1. Введения в безопасность ИИ.

Риски и специфика AI-систем: отличия от классических ИС.
Классификация угроз (adversarial ML, data poisoning, model stealing, privacy leaks и др.).
Типовые злоумышленники, мотивация и сценарии атак.
Модели угроз для ML/AI pipeline.
Краткий разбор инцидентов (case studies).
Требования регуляторов (NIST, ISO/IEC 27001, 27017, IEEE) для AI.

Модуль 2. Adversarial атаки. Тестирование и защита моделей.

Adversarial: теория, методы генерации (FGSM, PGD, Carlini-Wagner и др.).
Категории атак (white-box/black-box, targeted/untargeted).
Атакуемые объекты: классификация, сегментация, OCR, звук, NLP.
Механизмы защиты: adversarial training, input preprocessing, усиленные архитектуры.
Методы оценки устойчивости моделей (robustness metrics).

Модуль 3. Dana Poisoning. Атаки Supply Chain.

Data poisoning: типы атак (label flipping, backdoor, clean-label).
Механизмы атаки и стадии внедрения.
Опасности цепочек поставки: подмена моделей, репозиториев, библиотек.
Примеры атак через PyPI, Huggingface.
Механизмы защиты: отслеживание контента, верификация исходников, “песочницы”.
Актуальные стандарты и best practices (MLSecOps, DevSecOps).

Модуль 4. Угрозы приватности, инференс и защита данных.

Утечки через обученные модели: membership inference, model inversion.
Риски: reconstruction attacks, extraction attacks.
Меры защиты: differential privacy, federated learning, homomorphic encryption.
Обнаружение атак: практические методы фиксации утечек.
Требования рещуляторов: GDPR, перспективы ЕАЭС/РФ, NIST AI RMF.

Модуль 5. Комплексная защита и аудит моделей в продуктиве.

Комплексная архитектура безопасности ML/AI-систем.
Построение безопасного pipeline’а (CI/CD, MLOps, Model Registry, Monitoring).
Аудит качества защиты и мониторинг моделей.
Реагирование на инциденты для AI/ML.
Примеры корпоративной архитектуры безопасности (Google TFX, Kubeflow, Microsoft).
Краткий разбор сценариев аудитов.

Записаться на курс «ANT3005 - MLSecOps»